1
Основы пользовательского опыта, безопасности и жизненного цикла генеративного ИИ
AI011Lesson 5
00:00

Создание доверительного генеративного ИИ требует баланса между пользовательским опытом, надежной безопасностью и специализированным операционным циклом, известным как LLMOps.

1. Пользовательский опыт доверия

При разработке интерфейсов ИИ мы должны уравновесить четыре основных принципа: удобство, надежность, доступность и приятность. Окончательная цель — достичь баланс доверия:

  • Недоверие: Когда пользователи отказываются от системы из-за плохой производительности или отсутствия прозрачности.
  • Чрезмерное доверие: Когда пользователи имеют нереалистичные ожидания похожести ИИ на человека и не проверяют его выводы.

Обеспечение объяснимости—прозрачность процесса формирования конкретных результатов ИИ — имеет решающее значение для смягчения обоих крайностей.

2. Безопасность ИИ и уязвимости

Генеративный ИИ вводит уникальные угрозы безопасности, которым традиционные кибербезопасные рамки должны адаптироваться (например, использование MITRE ATLAS или списка OWASP Top 10 для языковых моделей):

  • Загрязнение данных: Подрыв целостности модели путем манипуляции обучающими или данными извлечения (например, изменение меток, загрязнение признаков или внедрение данных).
  • Внедрение подсказки: Злонамеренная манипуляция пользовательского ввода для обхода защитных механизмов и принудительного выполнения неавторизованных инструкций моделью.

3. Жизненный цикл LLMOps

Управление приложениями генеративного ИИ требует специализированного операционного процесса:

  • Генерация идей: Быстрая разработка прототипов и тестирование гипотез с использованием таких инструментов, как PromptFlow.
  • Разработка: Улучшение моделей с помощью генерации с поддержкой извлечения (RAG) или донастройки для подключения их к проверенным данным.
  • Операционная реализация: Непрерывный мониторинг метрик, таких как достоверность (честность) и задержка. Например, достоверность можно представить как $G = \frac{\text{Проверенные факты}}{\text{Общее количество утверждений}}$.
Инструктивное трение
Намеренное создание «трения» в интерфейсе (например, предупреждение или обязательный шаг проверки) напоминает пользователям, что они взаимодействуют с ИИ, помогая регулировать ожидания и снизить чрезмерное доверие.
llm_ops_monitor.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
What is the primary risk of "Overtrust" in a Generative AI system?
Users reject the system due to poor performance.
Users have unrealistic expectations and fail to verify AI limitations.
The system experiences slower latency during generation.
Hackers can easily inject malicious prompts.
Question 2
Which security threat involves compromising the training or retrieval data to trigger specific model failures?
Prompt Injection
Data Poisoning
Hallucination
Instructional Friction
Challenge: Medical AI Assistant
Apply UX and Security principles to a high-stakes scenario.
You are designing an AI assistant for a medical firm. You must ensure the data is safe and the user knows the AI's limits.
Task 1
Implement a design element to reduce overtrust.
Solution:
Add a disclaimer or "Instructional Friction" that requires the user to acknowledge the AI can hallucinate and that outputs should be verified by a medical professional.
Task 2
Define a metric to measure if the AI is making up facts.
Solution:
Implement a "Groundedness" or "Honesty" metric to compare the AI's outputs strictly against a verified medical knowledge base (e.g., using RAG).